模型即 Agent 的含金量:Kimi深度研究功能详评
模型即 Agent 的含金量:Kimi深度研究功能详评大家好,我是歸藏(guizang),今天给大家带来 Kimi 的深度研究能力体验和介绍。
大家好,我是歸藏(guizang),今天给大家带来 Kimi 的深度研究能力体验和介绍。
相信大家都用过 Kimi,也都用过 Kimi 的 PPT 助手——一键生成 PPT。但是随着各种功能更强、更好用的应用层出不穷,Kimi 近段时间的热度是越来越低了。
这款 Agent 擅长多轮搜索和推理,平均每项任务执行 23 个推理步骤,访问超过 200 个网址。它是基于 Kimi k 系列模型的内部版本构建,并完全通过端到端智能体强化学习进行训练,也是国内少有的基于自研模型打造的 Agent。
当前,强化学习(RL)在提升大语言模型(LLM)推理能力方面展现出巨大潜力。DeepSeek R1、Kimi K1.5 和 Qwen 3 等模型充分证明了 RL 在增强 LLM 复杂推理能力方面的有效性。
本文详细解读了 Kimi k1.5、OpenReasonerZero、DAPO 和 Dr. GRPO 四篇论文中的创新点,读完会对 GRPO 及其改进算法有更深的理解,进而启发构建推理模型的新思路。
现在,AI 产品仅仅只靠机器人尬聊,已经留不住用户了,这是显而易见的新共识。
当前,强化学习(RL)方法在最近模型的推理任务上取得了显著的改进,比如 DeepSeek-R1、Kimi K1.5,显示了将 RL 直接用于基础模型可以取得媲美 OpenAI o1 的性能不过,基于 RL 的后训练进展主要受限于自回归的大语言模型(LLM),它们通过从左到右的序列推理来运行。
刚刚,Kimi团队上新了!
Kimi 开放平台的朋友们,基于 Moonshot AI 一年来的技术积累和性能优化,我们已经在北京时间 2025 年 04 月 07 日 0 点对 Kimi 开放平台提供的模型推理服务进行价格调整,具体调整方案如下:
北京时间今天凌晨,Kimi 与清华大学合作研发的 Mooncake 项目技术报告获得计算机存储领域顶会 FAST 2025「最佳论文」奖。Mooncake 是月之暗面 Kimi 的底层推理服务平台。